家医健康
国内健康世界健康探索科学

AI心理健康误区的危险

新闻时间:2024年12月22日 - 更新时间:2024-12-23 18:05:07
来源:Psychology Today
语言:英语,所在国:美国
分类:科技与健康 , 关键词:AI与医疗健康

个人视角:AI能否被信任用于诊断和治疗心理健康问题?

发布于 2024年12月22日 | 审核者:Abigail Fagan

关键点

  • 大型语言模型可能会失灵,生成无意义的词汇。
  • AI逻辑可能在回应心理健康查询时产生有害的错误信息。
  • AI生成的疗法无法融入面对面治疗中所需的直观、敏感的互动。

来源:pexels/Google DeepMind

每当我上网时,总有一种感觉,互联网不再优先考虑用户的需求。尝试浏览网络空间时,仿佛有人把手放在方向盘上,希望我不注意他们将我引向更有利可图的方向。

广告驱动的收入模式通常会奖励夸张或煽动性的内容,甚至促使信誉良好的来源将其写作偏向于煽动性。更糟糕的是,我们用来访问互联网的实际硬件设计旨在将我们观看和阅读的所有内容同质化——使陌生人、骗子和算法看起来与紧急个人通信一样重要。不幸的是,现在比以往任何时候都更容易让有不良想法的人进入我们的头脑,尤其是对于在网上寻求心理健康信息的脆弱人群来说,这可能带来灾难性的后果。

所有这些假设试图向我们推销不良想法的人实际上是人。这就引出了在线心理健康错误信息的最低点:由大型语言模型(LLM)程序生成的程序化内容——科技公司将其营销为“AI”。

作为一名患有强迫症的人,我完全意识到围绕所谓“人工智能”的讨论可能引发末日焦虑,特别是因为销售这些产品的公司一直在表演性地担心其产品的世界末日潜力。CNN报道,在耶鲁CEO峰会上接受调查的42%的CEO表示,“AI在未来五到十年内有可能摧毁人类。”

大型语言模型的工作原理

我不是专家,无法提供这项技术的深入解释,但大体上(借助Timothy B. Lee和Sean Trotta在《Ars Technica》上的优秀入门指南),LLM将单词编码成长串的数字,称为“词向量”,然后将每个数字定位在虚拟图表上的数百或数千个轴上。每个轴代表与其他单词相似的一个度量标准,较长的数字允许程序计算更复杂的语义关系。从这里开始,称为“变换器”的序列应用类似的度量标准来确定句子中每个单词的位置——例如,专有名词(“Joe”)和代词(“his”)在靠近使用时通常指同一个人(“Joe parked his car”)。这一切意味着LLM“将单词而不是整个句子或段落作为基本分析单位”。

我知道向强迫症患者保证他们的恐惧是不可能的很危险;外部保证会鼓励我们依赖他人来管理焦虑,而不是学会独自面对和克服它。所以我只说一次:你不需要担心AI末日。LLM永远不会诞生终结者,就像通过虚拟现实头盔进行视频会议不会变成《矩阵》一样。这是一项令人着迷的技术,有许多应用,但它更像手机上的自动完成功能,而不是科幻小说中的任何东西。当你检查程序的输出时,这一点变得显而易见。据我所见,平均LLM文章大约40%是实际内容,50%是反复重述内容(就像露西在《查理布朗音乐剧》中试图增加书报告的字数),10%是纯粹的胡言乱语。

潜在的AI故障

LLM输出令人担忧地容易出现科技公司诗意地称为“幻觉”的情况,即LLM强调错误的词关联并生成自证错误的胡言乱语——比如谷歌的LLM臭名昭著地建议用户在披萨上涂胶水。我对称这些事件为“幻觉”持异议,这助长了LLM的科幻神话,而不是直呼其真实面目:故障、漏洞、来自故障计算机程序的奇怪结果。

当跨国公司生成粘合剂披萨食谱时,人们很容易一笑置之,但在回应关于精神疾病的问题时出现这样的错误就一点也不好笑了。一个冒充治疗师的LLM可能会给强迫症患者提供无尽的保证,鼓励他们大量购买洗手液,或建议他们每四小时喝两升无糖可乐来自我治疗。关于机器人起义的戏剧性但完全是虚构的威胁掩盖了LLM目前正在造成的实际、具体的伤害——传播错误信息,尤其是在心理健康方面。机器人正在鼓励人们,尤其是年轻人,从事有害行为。

我在大学时曾整整一年遭受越来越严重的暴力、性和宗教方面的侵入性思维。我没有被诊断为强迫症,当我勇敢地向一位好心但不合格的大学辅导员描述我的想法时,她不知道该如何应对。没有其他解释,我确信这些不请自来且失控的想法是我退化为完全精神病的迹象。

大二时,出于创造性的绝望,我转向了谷歌:“为什么我无法停止思考最糟糕的事情?” 我被引导到了维基百科关于纯O型强迫症的文章。虽然在线文章永远不能代替专业诊断,但我并不需要它是——我只是需要正确的语言来描述我的症状,并获得一些方向去寻求适当的帮助。2007年的互联网可以提供这一点。

我害怕想象如果我当时询问了一个LLM会发生什么。

也许LLM可以帮助我。或许它会将我的查询中的词向量与“侵入性”、“思维”和“强迫症”等词语联系起来。经过三个月的密集治疗,我终于控制住了症状,但也许LLM治疗师也能做得同样好。它可能已经帮助我克服了阻止我表达症状的深深羞耻感,帮助我阐述了复杂的思想,并指导我完成了恢复所需的暴露与反应预防(ERP)疗法。不太可能。或许由于其神经网络的某个特点,我的LLM会冷静地告诉我,我正在经历精神崩溃,应该自首。

AI治疗”行业的风险

这就是为什么我对自称“AI治疗”行业的突然兴起感到震惊。所谓的“AI治疗师”既不是智能的,也不是治疗师——它只是一个Excel电子表格自动排列字母的顺序,就像治疗师通常使用的那样。

我无法断定互联网对我们的集体心理健康是利大于弊还是弊大于利。毕竟,如果没有谷歌和维基百科,我永远不会寻求到需要摆脱强迫症螺旋的诊断。但我绝对有信心地说,21世纪20年代的互联网对脆弱人群来说是一个危险的地方,而LLM是问题的一部分。

这些机器能够造成巨大的伤害,不是因为它们“智能”,而是因为它们是人工的,既可以滑稽地缺陷百出,也可以冷漠无情——与许多试图从中获利的人非常相似。

小心——今天的互联网不在乎是否会伤害你。

版权所有 Fletcher Wortmann 2024


(全文结束)